查看原文
其他

王兆毓 | 生成式人工智能视阈下算法审计的制度构建与路径创新

要目

0  引言

1  算法审计的制度价值

2  算法审计的体系展开

3  算法审计的实践框架

4  结论


摘要:随着文心一言、通义千问、ChatGLM等我国生成式人工智能算法研发与应用的落地,加快构建并完善面向生成式人工智能的算法治理已成为完善算法监管体系的题中之义。在算法治理体系之中,算法审计制度有利于算法异化与算法风险的纠偏问责,促进算法公平与数字正义的实质透明,并实现算法公开与商业秘密的张力弥合,从而成为算法规制的关键制度配置。在全流程治理视角下,唯有“用算法审计算法”,实现书面合规审计与技术合规审计的协同并举,才能在算法内外部对算法的透明度、公平性、可控性、包容性和可问责进行多维视角的有效评估。而在算法审计实践之中,现行法仍需完善刚柔并济的差序规制格局,巩固分类分级的精准治理,以实现算法审计内外兼修的制度衔接,促进算法治理从碎片化监管迈向更为一体化、敏捷化、精准化的治理格局。

关键词:算法审计;算法治理;透明度;个人信息保护


0 引言

随着信息技术的发展,算法已然在潜移默化地“编码”我们的生活。AI绘画工具MidJourney、Stable Diffusion、DALL-E2和生成式对话模型ChatGPT等人工智能生成内容(AI Generated Content, AIGC)一鸣惊人,作为支撑的生成式人工智能算法呈现出涌现性、拓展性、复合性等优势并成为人工智能的全新热点。生成式人工智能算法已然能够在职位推荐、创意绘图、智慧医疗等诸多应用场景下提供高效的解决方案。与此同时,提示语注入攻击、“毒害”内容、深度合成图像侵权等外部性风险层出不穷,使得面向生成式人工智能的治理与监管呼之欲出。而作为算法监管的重要工具,算法审计制度已经在相关法律制度中得以明确并在算法治理体系中处于举足轻重的地位。2022年12月,《中共中央 国务院关于构建数据基础制度更好发挥数据要素作用的意见》(以下简称“数据二十条”)对外发布,进一步明确了建立数据要素生产流通使用全过程的算法审查制度。2023年4月,国家互联网信息办公室发布关于《生成式人工智能服务管理办法(征求意见稿)》(以下简称“生成式管理办法”)并公开征求意见,成为首部直接面向生成式人工智能的规范性文件。在此之余,如何针对生成式人工智能建立合法有效的算法审计制度,亟待理论与实践做出更有力的回应。

1 算法审计的制度价值

生成式人工智能以Transformer模型和Pre-trained模型等为基础,并通过注意力机制、强化学习等手段对结果进行优化。由此产生的大规模神经网络由于可解释性的欠缺而成为“算法黑箱”。算法审计制度的价值便是以适度“打开”算法黑箱为起点,旨在建构实质意义上的算法公开。算法公开又可以从两种相互独立亦相互交织的表现形式得以实现:算法问责和算法透明。从算法公开的形式侧面审视,算法审计的价值在于通过面向算法异化与算法风险的纠偏实现算法问责;从实质侧面审视,算法审计通过算法透明促进实质现实的算法公平与数字正义;从适正侧面审视,算法审计以适度性弥合算法公开、用户权益保护与商业秘密的制度张力。


1.1 形式侧面:算法异化与算法风险的纠偏问责


算法训练的过程是拟合输入与输出之间客观的相关关系,但以生成式人工智能为代表的人工智能技术仍不免是一种人为构建和实施的知识体系。当这一知识体系深度嵌入公民的日常生活,算法已成为社会权力体系中举足轻重的构成部分。欠完善的算法规制体系亟待现行法对算法的权力监管与算法侵害作出更有力的回应。算法审计制度的价值基础,首先便在于对算法异化与算法风险的溯源纠偏。


算法审计是对算法设计、训练、验证整体过程的合法性评估。通过评估结果使得用户对算法的外部风险建立合理预期,并监督算法开发者面向审计结果进行算法的整体迭代与优化。同时,算法审计揭示算法是否公平、是否存在歧视等合规的具体内容,成为用户面向算法侵害取得救济的间接依据,奠定算法在实质上的可问责体系。算法审计构建的针对算法异化与算法风险的纠偏问责体系,成为事前、事中、事后对用户权益全方位保障的治理基础。


1.2 实质侧面:算法公平与数字正义的实质透明


生成式人工智能等算法技术的应用正在无形之中刻画出“数字鸿沟”,并加剧了组织间、企业间、国家间的发展差距。在平台与企业内部,算法为用户群体建立了差异化的“用户画像”,甚至发展成为歧视性的定价方法或推荐机制。差异化的用户画像绝不应当成为数字不平等、数字非正义的价值基础,但算法正在实质上强化这种数字社会的不平等与非正义。


为了消解鸿沟之下的算法暴政,算法透明成为数据时代公平和正义的全新导向。在生成式人工智能的诸多应用场景中,算法常常是不透明、不可解释、不容置疑的。非透明的算法应用场景下,用户受到负面评价可能仅仅是因为“算法说不”,而缺乏相应的解释说明机制与决策透明化过程的呈现。算法审计制度在算法外部通过审计手段与审计技术,对算法内部进行实质的透明化,进而满足算法透明的价值导向和监管要求,并回应公民对于算法的不信任。因此,科学有效的审计制度,是数字经济时代算法公平与数字正义的应有之义。


1.3 适正侧面:算法公开与商业秘密的张力弥合


生成式人工智能等算法为企业提供高效、准确和自动化的决策支持,帮助企业优化业务流程、提高生产效率并降低运作成本,已发展成为企业的重要资产乃至核心竞争力。在司法实践中,算法常常受到商业秘密或知识产权的制度保护。但由此衍生的算法的秘密性为算法披上了“表面中立”的面纱,并将其“歧视本性”隐藏于算法黑箱背后。


为了规制算法黑箱,有学者认为唯有“打开黑箱”——对算法设计和开发的过程进行详细解释与说明,并进行全局开源或面向特定主体的局部开源方可行之有效地进行治理。然而算法透明度、算法解释与商业秘密、知识产权保护总是处在一种动态的制度张力之中,盲目地打开算法黑箱会使制度张力失效而打破双方的利益平衡。此外,由于生成式人工智能算法仅具有较低的算法可解释性,纵使通过算法开源打开了算法黑箱,可能仍然无法对其可能存在的异化风险进行完全评估。而算法审计则不仅聚焦于算法内部的实现方法和效能评估,亦关注算法外部的结果分析和应用风险,进而可以在不打开算法黑箱的情况下对其建立适度的透明度与可解释性,弥合算法透明度、算法可解释性与商业秘密和知识产权保护的制度张力,兼顾算法开发者与算法使用者之间的利益平衡。

2 算法审计的体系展开

比较法视野下,欧盟的《人工智能提案》(AI Act)、美国的《算法问责法案》(Algorithmic Accountability Act)、加拿大的《自动化决策指令》(Directive on Automated Decision-Making)等已对算法治理提出了有效的规制方案。结合域外相关立法与实践经验,我国算法审计的体系展开,应当在全流程治理视角下明确算法审计的对象,结合书面合规审计和技术合规审计的审计方法,通过多元主体共治对透明度、公平性、可控性、包容性和可问责的多维视角具体展开。进而兼顾算法的共性与个性,平衡算法开发者与算法使用者的利益,并有效防范算法的异化风险。


2.1 审计对象:全流程治理下的模块化审计


从审计对象而言,为了平衡算法审计制度对于审计公平、审计正义的价值追求以及审计可操作性、审计效率的实践需要,算法审计对象可以在全流程算法治理框架之下通过模块化解构得以明确。


全流程治理是指算法治理应当面向整个算法开发流程的需求、设计、开发、验证、应用、监测等全部流程,旨在落实全流程、全方位、全周期的溯源治理。在数据安全领域,数据“全生命周期”保护的理念已经得到制度落实,构建出全生命周期下数据处理者的一般义务与不同生命周期阶段下数据处理者的特殊义务相融合的规制路径。在算法治理的实践框架下,也应当相对应地树立算法的“全生命周期”——全流程治理的监管理念。


但全流程治理并不意味着面向全流程的算法审计,这会在实质上将数据治理、算法治理与平台治理的边界模糊化,最终导致不同治理路径之间难以分割,算法审计的实践路径亦难以明确。全流程治理的理念确立,恰恰是为了通过对于全流程的模块化解构而明确“算法”的概念与内涵,使得算法审计更具有明确性与可操作性。在算法的工业开发中,主流开发流程框架包括但不限于微软团队的通用机器学习工作流(Machine Learning Workflow, ML Workflow)、团队数据科学过程框架(Team Data Science Process, TDSP)和欧盟起草的跨行业数据挖掘标准流程(Cross Industry Standard Process for Data Mining, CRISP-DM)等。在算法审计的模块化解构之中,可以参考算法开发技术中的相关实现方式。通过对通用技术开发流的个性与共性的全局考量,将全流程算法治理的模块化设计分解为数据收集与处理、算法设计与训练和平台部署与应用,如图1所示。在模块化解构的视角下审视“算法”的外延及内涵,算法审计的“算法”并不只是一个静态的工程结果,而是动态的工程过程。算法是主要包括了模型训练、模型验证等的开发过程,是数据收集与处理的直接目的,也是后续平台部署与应用的基础。


图1 通用算法开发流与算法审计的模块化解构

注:以上对于开发流描述的流程图均为该流程的简化示意,实际开发工作中子流程之间往往不是高度线性而是循环往复的。


2.2 审计方法:书面合规审计和技术合规审计


传统审计是国家授权或接受委托的专职机构和人员对被审计单位进行审查监督、评价经济责任等的一项独立性的经济监督活动。而算法审计在本质上亦是一种从算法外部所进行的独立的合规性分析与合法性监督活动。为达到审计效能,可以采取不同的审计方法或审计工具,进而衍生出书面合规审计与算法合规审计。


书面合规审计主要是通过被审计单位算法的需求设计、训练日志、验证结果等,从书面角度对算法合规需求的满足进行的定性分析。例如在荷兰的算法审计实践之中,审计框架的起点是七个通用问题,包括算法名称、算法应用过程、是否适用个人数据等。此阶段仅需要通过对审计材料的书面评估即可回答上述通用问题,得到定性的通用问题答案后进行后续的审计流程。


但随着算法的复杂度和复杂性的日益攀升,书面合规审计已无法对算法进行全面高效的评估,进而引发“用算法审计算法”的切实需求。技术合规审计即为审计算法在特定环境中使用时表现的数据、性能、状态等,然后通过技术手段评估算法的合规性以及是否需要作出相应的调整,通常表现为以定量分析手段得到定量或定性的结果。例如针对算法的非歧视性,域外的技术合规审计已经探索了相关性分析算法、特征指标矩阵、计划实验法等多种有效的量化框架或方法。技术合规审计通过“模型不可见”(Model-agnostic Methods)的技术路径实现,并延伸出“审计研究”(Audit Study)等体系化的研究方法。


2.3 审计主体:内外部结合的多元主体审计


从审计主体而言,在多中心协同治理范式的要求下,算法审计应当是多元主体的协同共治审计体系,包括了企业自治的内部审计与第三方主体独立的外部审计。


内部审计是算法开发主体自行开展的对于算法的评估审计活动。在企业内部自治的需求下,算法开发者通过对自身算法工程开发及应用场景的合规预设,对算法的合规性需求进行实现,防止通过代码编写出社会性的偏见与谬误。相较于外部审计,内部审计直接面向算法的开发人员及开发过程,获得更为详实的可审计信息,并直接将算法审计结果作用于算法的优化与迭代之中。在受托责任理论的视角下,内部审计是受托责任系统中的控制机制,也是公司治理中的重要组成部分。在算法审计实践中,互联网巨头已经开发并使用Fairness Flow、AIF 360、What-If Tool等审计工具在企业内部对于算法的公平性等方面进行全面的评估与审计实践。


外部审计是第三方机构独立开展的对于算法的评估审计活动。外部审计制度是对内部审计自治的有效补充,且第三方机构的参与在一定程度上亦有利于缓和算法开发者与监管者的利益冲突,进而外部审计成为算法外部治理机制的重要组成部分。但在算法审计市场的培育初期,我国目前仍缺乏行业内广泛认同的审计框架和审计标准,第三方算法审计常常呈现出“参与式审计”的特色。在域外审计实践中,例如美国的非盈利公司“为了人民”(ProPublica)对“刑事审判中的风险预测算法”(Correctional Offender Management Profiling for Alternative Sanctions, COMPAS)开展了独立的审计工作,其后续发布的审计报告《机器偏见》(Machine Bias)在美国社会引发广泛关注,并直接推动了相关立法与司法实践的深化。


2.4 审计内容:算法审计的多维视角


作为算法治理的关键实现方式,算法审计也应当服务于算法治理的核心目标及原则。我国于2019年颁布的《新一代人工智能治理原则——发展负责任的人工智能》将人工智能治理的重点定义为和谐友好、公平公正、包容共享、尊重隐私、安全可控、共担责任、开放协作和敏捷治理。美国国防部于2022年6月发布的《国防部负责任人工智能战略和实施路径》进一步巩固了2019年《人工智能原则:国防部人工智能应用伦理的若干建议》所提出的“负责、公平、可追踪、可靠、可控”五大原则,并对负责任人工智能提出了进一步规划。英国政府于2023年4月发布的人工智能白皮书中,将人工智能监管的五个基本原则定义为:安全性、保险性和鲁棒性;透明度和可解释性;公平;可问责与可监管;可抗辩与可救济。上述算法治理的重点与原则可以成为算法审计内容的重要参考。


通过社会风险理论反思算法审计的制度定位,算法治理直面数字社会的信任风险、公平风险、失控风险、社会风险和责任风险。综合考量风险面向与治理原则,算法审计的内容可以细化为透明度、公平性、可控性、包容性和可问责。


透明度包括建立透明、明确、可解释的人工智能,为算法黑盒构建适度透明,矫正开发者与用户之间的信息不对称,成为用户对算法的信任基础。算法公平旨在避免不合理的算法歧视、算法偏见,促进数字平等和算法正义。可控性要求构建不同风险等级下算法审计的安全性、鲁棒性和稳定性的系统建设与评估措施,保障生成式人工智能算法服务的安全可靠与运行平稳,并对可能的系统故障进行预期。包容性旨在化解数字鸿沟和数字陷阱,主要表现为打开信息茧房、面向老年人的可及性和对于劳动者的效率包容等,并且要求生成式算法服务提供者积极、恰当地使用人工智能技术。可问责要求法律法规建立明确的问责体系,同时要求第三方机构独立运作、监管部门高效执法,以在促进技术创新的同时建立起算法问责与救济体系。

3 算法审计的实践框架

在域外,荷兰、美国等国家已经就算法审计展开了较为广泛的实践。我国现行法面向生成式人工智能的立法“散落”在法律、规章之中“各自为政”。结合上述算法审计的体系展开对现行法进行梳理,我国算法审计制度已经初步建立起了刚柔并济的差序规制格局,再此基础上可以进一步夯实分类分级的精准治理制度并完善承前启后的制度衔接。


3.1 总体框架:刚柔并济的差序规制


由于生成式人工智能服务提供者在不同场景下所扮演的复杂、重叠的法律角色,我国算法审计制度的总体框架呈现出刚柔并济的差序格局。


首先,作为“利用生成式人工智能产品提供聊天和文本、图像、声音生成等服务的组织和个人”,显然成为《生成式管理办法》中“提供者”的适格主体。且生成式人工智能通过“生成合成类算法技术向用户提供信息”,属于算法推荐技术明文列举的典型类别,因而成为《互联网信息服务算法推荐管理规定》(以下简称“推荐管理规定”)的规制对象。其次,生成式人工智能算法依赖人工标注数据作为算法训练的基础。而在许多面向用户个人的应用场景下,需要将个人信息的数据输入进行算法训练。数据以及其作为载体所承载的个人信息呈现出“橘肉和橘皮”之关系,二者相互区分但常常难以明确分割。数据或个人信息的处理成为生成式人工智能训练的基础工作或服务目的,生成式人工智能服务提供商也符合了“数据处理者”和“个人信息处理者”的概念内涵并成为《数据安全法》《个人信息保护法》以及《民法典》第六章“隐私权和个人信息保护”的规制对象。再次,算法开发的目的在于面向互联网平台的部署与应用,算法审计在平台问责体系下逐渐发挥其核心作用。生成式人工智能服务提供商也成为《互联网平台落实主体责任指南(征求意见稿)》(以下简称“主体责任指南”)等平台问责规范的规制对象。最后,在上述“硬法”的规制之余,亦有《信息安全技术机器学习算法安全评估规范(征求意见稿)》(以下简称“机器学习评估规范”)、《信息安全技术 信息系统安全审计产品技术要求和测试评价方法》(以下简称“信息系统评价方法”)等“软法”对生成式人工智能的规制协同适用。


由此可见,我国现行法已经通过法律与规章相互结合、软法与硬法互为补充的方式建立起对算法审计刚柔并济、软硬兼施的总体治理框架。而在此规制格局之下,仍需要对算法审计的审计周期、审计方式、审计结果、审计公开等方面进行进一步的细化,渐进式地推动算法治理框架的迭代与升级,使算法审计制度充分应对来自实践的挑战。


3.2 制度解构:分类分级的精准治理


在刚柔并济的差序规制格局之下,《个人信息保护法》第54条和第64条分别规定了个人信息处理者的定期审计和强制审计义务,确定了算法审计的正当性基础。在此基础上,《互联网信息服务算法推荐管理规定》第8条、《互联网平台落实主体责任指南(征求意见稿)》第8条及《网络数据安全管理条例(征求意见稿)》第58条衔接了《个人信息保护法》的相关规定,明确了不同场景下算法开发者的审计义务。从算法审计的透明度、公平性、可控性、包容性和可问责等合规要求出发,可以对现行法进行更细化的解构,如表1所示。


现行法已经在算法通用场景、生成式人工智能通用场景和特殊场景下为生成式人工智能算法审计的多维视角构建了制度基础。在通用场景之余,算法定价、舆论动员等是在场景分类分级的理念下对生成式人工智能算法审计的有效补充。未来算法审计制度的优化路径,也应当面向更广泛的审计场景建立更细化的审计路径,完善面向用户权益保障的算法精准治理。


3.3 制度衔接:内外兼修的制度定位


在剖析算法审计制度之余,可以从制度衔接的角度,理解算法审计内外兼修的制度选择与制度定位。


在内部视角下,算法审计应当是自愿审计与强制审计的有效衔接。现行法律法规主要强调了定期审计与强制审计的制度衔接。为了充分激发企业的自我治理、自我规制、自我问责,有必要建立相对应的自愿审计制度,并完善自愿审计制度与定期审计和强制审计的制度衔接。算法开发者通过自愿审计取得第三方独立审计机构出具的审计报告。而后算法开发者可通过内部共享审计报告实现企业自治的需求,也可通过有限公开或全部公开审计报告或审计结果的方式消除用户异议并回应用户质疑。且自愿审计亦可成为定期审计与强制审计的重要部分或有效辅助。应当在现行法通过自愿审计与定期审计和强制审计的有效衔接,使得算法审计成为算法治理端到端的有效管理工具。


在外部视角下,算法设计与训练是介于数据收集与处理和平台部署与应用的中间节点,在全流程算法治理的视角下算法审计制度也在算法治理的全链条中处于承前启后的中坚地位。算法审计是算法治理之中流程管理监督和动态风险管控的程序性治理方案,可以有效地对算法风险进行预警和评估,并在此基础上降低算法异化的频度、深度与广度。但算法审计难以从根本上阻断算法风险向实际损害结果的转化,更无法在微观、具案层面为被侵权人提供个案正义的救济。与之相比,位于算法治理前端的数据治理和后端的平台治理则可以通过数据处理者和个人信息处理者的合规义务与平台主体责任直接对算法侵害提供救济。因而在全流程算法治理之中,数据和个人信息处理的合规是算法问责的起点。算法审计旨在面向“算法黑箱”构建算法外部的适度透明,进而成为平台可问责的重要依据。通过平台问责,实现对于算法用户权利的个人正义和法律救济。由此通过算法审计与数据合规、个人信息合规以及平台问责等机制的衔接,实现算法审计由碎片化规制迈向一体化治理的进程。


表1 算法审计的合法性基础细化

4 结论

崭露头角的生成式人工智能算法势必将在未来不断走向更深入的实践运用,而对其可能的异化风险治理与规制亦成为学界关注的重要论题。算法审计因其独特的制度价值成为算法治理体系中的重要一环。在生成式人工智能算法的审计过程中需要重视其特殊化的审计对象、审计方法、审计主体和审计内容。算法审计的路径优化,呼吁立法者在刚柔并济的差序格局之下,促进分类分级的精准动态治理和智能化治理,建立更为敏捷、审慎、完备的法律规制体系。


算法只是手段,而非目的;面向算法的法律规制之目的不仅仅是监管,也是促进发展与激励创新。算法审计的制度效用在于促进算法技术与数字经济的科学有序发展,而非通过过于严格的限制阻碍算法创新与算法应用。如何平衡技术发展与规制治理之间的张力,也是算法治理研究之中需要随时代发展不断动态考量的议题。


 本文来源与作者信息


  • 原文刊发于《网络安全与数据治理》2023年第8期。

  • 王兆毓(2000-),男,硕士研究生,主要研究方向:算法治理、个人信息保护。

  • 因篇幅较长,已略去原文注释

继续滑动看下一个
清华大学智能法治研究院
向上滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存